Bernoulli-Prozess — Ein Bernoulli Prozess ist ein zeitlich diskreter stochastischer Prozess, der aus einer endlichen oder abzählbar unendlichen Folge von unabhängigen Versuchen mit Bernoulli Verteilung besteht, d.h., für jeden der Zeitpunkte 1, 2, 3, ... wird… … Deutsch Wikipedia
Bernoulli — ist der Name einer Gelehrtenfamilie, die vom 17. Jahrhundert bis heute viele berühmte Wissenschaftler und Künstler hervorgebracht hat. Als Stammvater wird der niederländische Protestant Leon Bernoulli angesehen, der als Arzt in Antwerpen wirkte.… … Deutsch Wikipedia
Bernoulli-Versuch — Zufallsgrößen mit einer Null Eins Verteilung bzw. Bernoulli Verteilung benutzt man zur Beschreibung von zufälligen Ereignissen, bei denen nur zwei mögliche Versuchsausgänge interessieren, das zufällige Ereignis (Erfolg) und sein komplementäres… … Deutsch Wikipedia
Bernoulli-Experiment — Ein Bernoulli Prozess ist ein zeitlich diskreter stochastischer Prozess, der aus einer endlichen oder abzählbar unendlichen Folge von unabhängigen Versuchen mit Bernoulli Verteilung besteht, d.h., für jeden der Zeitpunkte 1, 2, 3, ... wird… … Deutsch Wikipedia
Bernoulli-Verteilung — Wahrscheinlichkeitsfunktion der Bernoulli Verteilung für p = 0.2 (blau), p = 0.5 (grün) und p = 0.8 (rot) Zufallsgrößen mit einer Null Eins Verteilung bzw. Bernoulli Verteilung benutzt man zur Beschreibung von zufälligen Ereignissen, bei denen es … Deutsch Wikipedia
Bernoulli-Verteilung — I Bernoulli Verteilung [bɛr nʊli ], Binomialverteilung. II Bernoulli Verteilung (Binomialverteilung), in der mathematischen Statistik eine Funktion, die die Wahrscheinlichkeit dafür angibt, dass bei n maliger unab … Universal-Lexikon
Markov-Prozess — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… … Deutsch Wikipedia
Markow-Prozess — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… … Deutsch Wikipedia
Stochastischer Prozess — Die Brownsche Brücke, ein stochastischer Prozess Ein Stochastischer Prozess ist die mathematische Beschreibung von zeitlich geordneten, zufälligen Vorgängen. Die Theorie der stochastischen Prozesse stellt eine wesentliche Erweiterung der… … Deutsch Wikipedia
Levy-Prozess — Die Klasse der Lévy Prozesse, benannt nach dem französischen Mathematiker Paul Lévy (1886 1971), fasst eine große Menge von stochastischen Prozessen zusammen, die durch die gemeinsame Eigenschaft der stationären, unabhängigen Zuwächse vereint… … Deutsch Wikipedia